许多关于缩放定律的研究考虑了基本因素,例如模型大小,模型形状,数据集大小和计算功率。这些因素很容易调整,代表了任何机器学习设置的基本要素。但是研究人员还采用了更复杂的因素来估计测试误差和概括性能,并具有高可预测性。这些因素通常针对域或应用。例如,特征多样性主要用于Chen等人促进SYN到真实传递。 (2021)。由于以前的作品中定义了许多缩放因素,研究这些因素如何在使用CNN模型的自我监督学习的背景下如何影响整体概括性能。个体因素如何促进概括,其中包括不同的深度,宽度或早期停止的训练时期的数量?例如,较高的特征多样性是否导致在SYN到真实传输以外的复杂环境中保持较高的精度?这些因素如何互相取决于彼此?我们发现最后一层是整个培训中最多样化的。但是,尽管模型的测试误差随着时代的增加而减少,但其多样性下降。我们还发现多样性与模型宽度直接相关。
translated by 谷歌翻译